Über mich

Die LMU München ist seit 2011 mein Zuhause. Die Fächer, die ich hier studieren konnte, reichen von Theoretischer Physik über Informatik bis hin zu reiner Mathematik. Nach einem kurzen Ausflug außerhalb der Wissenschaft bei Menlo Systems haben die LMU und ich unsere Beziehung wieder aufgenommen. Nun arbeite ich in der Arbeitsgruppe von Prof. Rauhut an linearen neuronalen Netzen und dem impliziten Bias des Gradientenverfahrens. In meiner Freizeit gehe ich gerne Radfahren, Wandern, Bouldern und backe Kuchen.

Schlagwörter
Lineare neuronale Netze | Impliziter Bias des Gradientenverfahrens | Algebraische Geometrie

Kurze Biographie

Forschungsschwerpunkte

Lineare neuronale Netze sind neuronale Netze mit null Bias und der Identitätsfunktion als Aktivierungsfunktion. Im Wesentlichen faktorisieren sie die lineare Zielfunktion. Ich interessiere mich für die Anwendung linearer neuronaler Netze auf Matrixrekonstruktionsprobleme wie die Quantentomographie.

Es wurde empirisch beobachtet, dass Gradientenverfahren, die bei Matrixrekonstruktionsproblemen verwendet werden, welche durch lineare neuronale Netze approximiert werden, mit weniger Messungen zum ursprünglichen Signal konvergieren, wenn das Netzwerk mehr Schichten hat. Ich arbeite daran, dieses Phänomen theoretisch zu erklären.

Veröffentlichungen